1
Dasar-Dasar UX, Keamanan, dan Siklus Hidup AI Generatif
AI011Lesson 5
00:00

Membangun AI generatif yang dapat dipercaya membutuhkan keseimbangan antara pengalaman pengguna, keamanan yang kuat, dan siklus operasional khusus yang dikenal sebagai LLMOps.

1. UX Kepercayaan

Ketika merancang antarmuka AI, kita harus menyeimbangkan empat pilar UX: Kemudahan Pakai, Keandalan, Aksesibilitas, dan Kepuasan. Tujuan akhirnya adalah mencapai Keseimbangan Kepercayaan:

  • Kurang Percaya: Ketika pengguna menolak sistem karena kinerja buruk atau kurang transparansi.
  • Terlalu Percaya: Ketika pengguna memiliki ekspektasi yang tidak realistis terhadap kesamaan AI dengan manusia dan gagal memverifikasi hasil keluarannya.

Memberikan Keterbacaan Penjelasan—transparansi mengenai bagaimana AI menghasilkan output tertentu—adalah hal penting untuk mengurangi kedua ekstrem tersebut.

2. Keamanan dan Kerentanan AI

AI generatif memperkenalkan ancaman keamanan unik yang kerangka keamanan siber tradisional harus disesuaikan (misalnya, menggunakan MITRE ATLAS atau OWASP Top 10 untuk LLM):

  • Pencemaran Data: Mengganggu integritas model dengan memanipulasi data pelatihan atau pemulihan (misalnya, Pembalikan Label, Pencemaran Fitur, atau Injeksi Data).
  • Injeksi Prompt: Memanipulasi masukan pengguna secara jahat untuk melanggar pengamanan dan memaksa model menjalankan instruksi yang tidak sah.

3. Siklus Hidup LLMOps

Mengelola aplikasi AI generatif membutuhkan alur operasional khusus:

  • Menggagas: Prototipe cepat dan pengujian hipotesis menggunakan alat seperti PromptFlow.
  • Membangun: Meningkatkan model melalui Generasi yang Diperkaya Pemulihan (RAG) atau Fine-tuning untuk menghubungkannya dengan data yang telah diverifikasi.
  • Operasionalisasi: Pemantauan berkelanjutan terhadap metrik seperti Keterdasaran (Kejujuran) dan Latensi. Sebagai contoh, Keterdasaran dapat direpresentasikan sebagai $G = \frac{\text{Fakta yang Diverifikasi}}{\text{Jumlah Klaim}}$.
Fraksi Edukasi
Merancang secara sengaja "fraksi" dalam antarmuka (seperti peringatan atau langkah verifikasi wajib) mengingatkan pengguna bahwa mereka berinteraksi dengan AI, membantu mengelola ekspektasi dan mengurangi kepercayaan berlebihan.
llm_ops_monitor.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
What is the primary risk of "Overtrust" in a Generative AI system?
Users reject the system due to poor performance.
Users have unrealistic expectations and fail to verify AI limitations.
The system experiences slower latency during generation.
Hackers can easily inject malicious prompts.
Question 2
Which security threat involves compromising the training or retrieval data to trigger specific model failures?
Prompt Injection
Data Poisoning
Hallucination
Instructional Friction
Challenge: Medical AI Assistant
Apply UX and Security principles to a high-stakes scenario.
You are designing an AI assistant for a medical firm. You must ensure the data is safe and the user knows the AI's limits.
Task 1
Implement a design element to reduce overtrust.
Solution:
Add a disclaimer or "Instructional Friction" that requires the user to acknowledge the AI can hallucinate and that outputs should be verified by a medical professional.
Task 2
Define a metric to measure if the AI is making up facts.
Solution:
Implement a "Groundedness" or "Honesty" metric to compare the AI's outputs strictly against a verified medical knowledge base (e.g., using RAG).